机器学习模型的培训和部署之间的分离意味着,在培训期间,并非所有部署中遇到的场景都可以预期,因此仅依靠培训的进步都有其限制。分布(OOD)检测是一个重要领域,强调模型处理看不见情况的能力:模型知道何时不知道吗?现有的OOD检测方法要么引起额外的训练步骤,其他数据或对训练的网络进行非平凡的修改。相比之下,在这项工作中,我们提出了一种非常简单的事后,即时激活塑形方法,灰分,其中大部分(例如90%)的样本激活在后层中被删除,然后删除休息(例如10%)简化或轻微调整。该塑形在推理时间应用,不需要根据培训数据计算出的任何统计数据。实验表明,这种简单的治疗可以增强分布和分布样本的区别,从而允许在ImageNet上进行最新的OOD检测,并且不会显着恶化分布的准确性。我们与论文一起释放了两个呼吁解释和验证的呼吁,他们相信集体权力进一步验证和理解这一发现。可以在:https://andrijazz.github.io/ash上找到电话,视频和代码
translated by 谷歌翻译
我们考虑在模型中推断高维数据$ \ mathbf {x} $的问题,该模型由先前的$ p(\ mathbf {x})$和辅助约束$ c(\ mathbf {x},\ mathbf){y})$。在本文中,先验是一个独立训练的denoising扩散生成模型。辅助约束预计将具有可区分的形式,但可能来自不同的来源。这种推理的可能性将扩散模型转换为插件模块,从而允许在适应新域和任务(例如条件生成或图像分割)中进行一系列潜在应用。扩散模型的结构使我们能够通过通过固定的denoising网络迭代分化来执行近似推断,每个步骤在每个步骤中都有不同量的噪声。考虑到评估其健身的许多噪声版本的$ \ mathbf {x} $是一种新颖的搜索机制,可能导致新算法用于解决组合优化问题。
translated by 谷歌翻译
我们提出了一种在数据样本集合中共同推断标签的方法,其中每个样本都包含一个观察和对标签的先验信念。通过隐式假设存在一种生成模型,可区分预测因子是后部,我们得出了一个训练目标,该目标允许在弱信念下学习。该配方统一了各种机器学习设置;弱信念可以以嘈杂或不完整的标签形式出现,由辅助输入的不同预测机制给出的可能性,或反映出有关手头问题结构的知识的常识性先验。我们证明了有关各种问题的建议算法:通过负面培训示例进行分类,从排名中学习,弱和自我监督的空中成像细分,视频框架的共段以及粗糙的监督文本分类。
translated by 谷歌翻译
本研究提出了一种新颖的训练算法,具体取决于最近提出的健身依赖优化优化器(FDO)。使用一些标准测量,在勘探和开发阶段进行了验证和性能的验证和性能。这影响了我们的目标来衡量算法在训练多层训练中的算法的性能(MLP)。本研究结合了FDO与MLP(CodeName FDO-MLP)优化权重和偏见以预测学生的结果。除了增加他们的成就外,本研究可以根据学生的教育背景改善学习系统。通过与背部传播算法(BP)和一些具有级联MLP(FDO-CMLP),灰狼优化器(GWO)的FDO与MLP(GWO-MLP)相结合的一些进化模型,肯定了这种方法的实验结果改性GWO与MLP(MgWo-MLP),带级联MLP(GWO-CMLP)的GWO,以及带级联MLP的改性GWO(MgWo-CMLP)。定性和定量结果证明,使用FDO作为培训师的建议方法可以在会聚速度和本地最佳避免方面使用不同培训师的其他方法。所提出的FDO-MLP方法分类为0.97的速率。
translated by 谷歌翻译
我们表明,基于补丁的模型,例如展示,可以对使用深卷积神经网络的语义分割和标签超分辨率的最新状态具有卓越的性能。我们推导出一种新的培训算法,其允许从非常大的数据集中学习并从拓扑表征中推导出标签超分辨率算法作为统计推理算法。我们说明了我们在陆地覆盖映射和医学图像分析任务的方法。
translated by 谷歌翻译